卷积神经网络(CNN)的一个问题是,它们需要大型数据集来获得足够的鲁棒性。在小型数据集上,它们容易过度拟合。已经提出了许多方法来克服CNN的缺点。如果无法轻易收集其他样本,则一种常见的方法是使用增强技术从现有数据中生成更多数据点。在图像分类中,许多增强方法都使用简单的图像操纵算法。在这项工作中,我们通过添加通过组合14种增强方法生成的图像来构建合奏,其中第一次提出了其中三种。这些新型方法基​​于傅立叶变换(FT),ra transform(RT)和离散余弦变换(DCT)。预处理的RESNET50网络在训练集上进行了填充,其中包括从每种增强方法中得出的图像。这些网络和几个融合均在11个基准测试中进行了评估和比较。结果表明,通过组合不同的数据增强方法来产生分类器,这些分类器不仅可以与最新技术竞争,而且经常超过文献中报告的最佳方法,从而在数据级上建立合奏。
translated by 谷歌翻译
语义分割包括通过将其分配给从一组所有可用的标签来分类图像的每个像素。在过去的几年里,很多关注转移到这种任务。许多计算机视觉研究人员试图应用AutoEncoder结构来开发可以学习图像语义的模型以及它的低级表示。在给定输入的AutoEncoder架构中,编码器计算的输入的低维表示,然后解码器用于重建原始数据。在这项工作中,我们提出了一个卷积神经网络(CNNS)的集合。在集合方法中,许多不同的型号训练,然后用于分类,整体汇总了单个分类器的输出。该方法利用各种分类器的差异来提高整个系统的性能。通过使用不同的丢失函数强制执行单个分类器中的多样性。特别是,我们提出了一种新的损失函数,从骰子和结构相似度指数的组合产生。通过使用Deeplabv3 +和Hardnet环境结合不同的骨干网络来实现所提出的合奏。该提案是通过关于两个真实情景的广泛实证评估来评估:息肉和皮肤细分。所有代码都在HTTPS://github.com/lorisnanni在线提供。
translated by 谷歌翻译
Multilabel学习解决与多个类标签相关联的问题。这项工作提出了一种用于管理Multilabel分类的新集合方法:所提出的方法的核心结合了一组门控经常性单元和临时卷曲的临时卷积神经网络,这些单位与ADAM优化方法的变体训练。比较和测试的多个ADAM变体,包括在此提出的新颖之一;这些变型基于当前和过去梯度之间的差异,对于每个参数调整步长调整。所提出的神经网络方法也与包含多个聚类中心(IMCC)结合,这进一步提升了分类性能。九种数据集的多个实验代表各种多标签任务的多种实验证明了我们最好的合奏的稳健性,这被证明可以优于最先进的。用于在实验部分中生成最佳合奏的MATLAB代码将在https://github.com/lorisnanni获得。
translated by 谷歌翻译
In this paper, we consider the problem of path finding for a set of homogeneous and autonomous agents navigating a previously unknown stochastic environment. In our problem setting, each agent attempts to maximize a given utility function while respecting safety properties. Our solution is based on ideas from evolutionary game theory, namely replicating policies that perform well and diminishing ones that do not. We do a comprehensive comparison with related multiagent planning methods, and show that our technique beats state of the art RL algorithms in minimizing path length by nearly 30% in large spaces. We show that our algorithm is computationally faster than deep RL methods by at least an order of magnitude. We also show that it scales better with an increase in the number of agents as compared to other methods, path planning methods in particular. Lastly, we empirically prove that the policies that we learn are evolutionarily stable and thus impervious to invasion by any other policy.
translated by 谷歌翻译
联合学习框架通常需要协作者共享共同模型的本地渐变更新,而不是共享培训数据以保留隐私。但是,在梯度泄漏攻击的事先工作表明,可以从梯度揭示私人培训数据。到目前为止,几乎所有相关工程都基于完全连接或卷积神经网络的攻击。鉴于近期适应变压器以解决多种愿景任务的绝大多大浪潮,调查视觉变压器的隐私风险是非常有价值的。在本文中,我们分析了基于自我关注机制的渐变泄漏风险,以理论和实用的方式。特别是,我们提出了4月 - 注意隐私泄漏,这对自我关注的博览会造成了强烈的威胁,如vit。展示视觉变压器如何通过梯度泄露隐私泄漏的风险,我们敦促设计隐私更安全的变压器模型和防守方案的重要性。
translated by 谷歌翻译
对于移动设备上的实际深度神经网络设计,必须考虑计算资源产生的约束以及各种应用中的推理延迟。在深度网络加速相关方法中,修剪是广泛采用的做法,以平衡计算资源消耗和准确性,可以在明智地或随机地拆除通道的不重要连接,并对模型精度的最小影响最小。信道修剪立即导致显着的延迟降低,而随机重量灌注更加灵活,以平衡延迟和精度。在本文中,我们介绍了一个统一的框架,具有联合通道修剪和重量修剪(JCW),并且在比以前的模型压缩方法的延迟和准确性之间实现更好的静脉前沿。为了完全优化延迟和准确性之间的权衡,我们在JCW框架中开发了一定量身定制的多目标进化算法,这使得一个搜索能够获得各种部署要求的最佳候选架构。广泛的实验表明,JCW在想象集分类数据集上的各种最先进的修剪方法之间实现了更好的折衷和准确性。我们的代码在https://github.com/jcw-anonymous/jcw提供。
translated by 谷歌翻译